Sleepiotm是一种数字手机和网络平台,使用认知行为疗法(CBT)的技术来改善睡眠困难患者的睡眠。作为此过程的一部分,Sleepio捕获了有关已处理此类数据的用户睡眠行为的数据。对于神经网络,数据的规模是训练可转换为实际临床实践的有意义模型的机会。与创建和利用Sleepio的Therapeutics公司Big Health合作,我们分析了401,174个睡眠日记的随机样本中的数据,并建立了一个神经网络,以个性化的方式对每个人的睡眠行为和睡眠质量进行建模。我们证明,该神经网络比过去10天的行为预测个人的睡眠质量比标准统计方法更准确。我们比较代表各种场景的各种超参数设置中的模型性能。我们进一步表明,神经网络可用于提出个性化建议,以了解用户应遵循的睡眠习惯以最大程度地提高睡眠质量,并证明这些建议比标准方法生成的建议要好得多。我们最终表明,神经网络可以解释给每个参与者的建议,并计算每个预测的置信区间,所有这些预测对于临床医生能够在临床实践中采用这种工具至关重要。
translated by 谷歌翻译
临床人工智能(AI)的神经网络的发展依赖于可解释性,透明度和性能。需要深入到黑匣子神经网络中,派生模型输出的解释解释是至关重要的。高临床重要性的任务是在不久的将来预测患者在不久的将户中预留到医院的可能性,以实现有效的分类。随着电子健康记录(EHRS)采用的日益增加,对自然语言处理(NLP)的应用很有兴趣在EHRS中包含的临床自由文本。在这项工作中,我们申请Infocal,目前的最先进的模型,为其预测产生提取理性,以使用医院排放笔记预测医院入院的任务。我们比较Infocal生产的提取理由在临床文本数据上预先追溯的基于竞争变压器的模型,并可用于解释来解释。我们发现每个呈现的模型具有选定的可解释性或特征重要性方法会产生不同的结果,临床语言域专业知识和预测对性能和随后的可解释性至关重要。
translated by 谷歌翻译
Human activity recognition (HAR) using IMU sensors, namely accelerometer and gyroscope, has several applications in smart homes, healthcare and human-machine interface systems. In practice, the IMU-based HAR system is expected to encounter variations in measurement due to sensor degradation, alien environment or sensor noise and will be subjected to unknown activities. In view of practical deployment of the solution, analysis of statistical confidence over the activity class score are important metrics. In this paper, we therefore propose XAI-BayesHAR, an integrated Bayesian framework, that improves the overall activity classification accuracy of IMU-based HAR solutions by recursively tracking the feature embedding vector and its associated uncertainty via Kalman filter. Additionally, XAI-BayesHAR acts as an out of data distribution (OOD) detector using the predictive uncertainty which help to evaluate and detect alien input data distribution. Furthermore, Shapley value-based performance of the proposed framework is also evaluated to understand the importance of the feature embedding vector and accordingly used for model compression
translated by 谷歌翻译
远程患者监测(RPM)系统的最新进展可以识别各种人类活动,以测量生命体征,包括浅表血管的细微运动。通过解决已知的局限性和挑战(例如预测和分类生命体征和身体运动),将人工智能(AI)应用于该领域的医疗保健领域越来越兴趣,这些局限性和挑战被认为是至关重要的任务。联合学习是一种相对较新的AI技术,旨在通过分散传统的机器学习建模来增强数据隐私。但是,传统的联合学习需要在本地客户和全球服务器上培训相同的建筑模型。由于缺乏本地模型异质性,这限制了全球模型体系结构。为了克服这一点,在本研究中提出了一个新颖的联邦学习体系结构Fedstack,该体系支持结合异构建筑客户端模型。这项工作提供了一个受保护的隐私系统,用于以分散的方法住院的住院患者,并确定最佳传感器位置。提出的体系结构被应用于从10个不同主题的移动健康传感器基准数据集中,以对12个常规活动进行分类。对单个主题数据培训了三个AI模型ANN,CNN和BISTM。联合学习体系结构应用于这些模型,以建立能够表演状态表演的本地和全球模型。本地CNN模型在每个主题数据上都优于ANN和BI-LSTM模型。与同质堆叠相比,我们提出的工作表明,当地模型的异质堆叠表现出更好的性能。这项工作为建立增强的RPM系统奠定了基础,该系统纳入了客户隐私,以帮助对急性心理健康设施中患者进行临床观察,并最终有助于防止意外死亡。
translated by 谷歌翻译
在人工智能的许多应用中,细粒度的变化检测和回归分析至关重要。实际上,由于缺乏可靠的基础真理信息和复杂性,因此这项任务通常是有挑战性的。因此,开发一个可以代表多个信息源的相关性和可靠性至关重要的框架。在本文中,我们调查了如何将多任务指标学习中的技术应用于实际数据中的细粒度变化。关键思想是,如果我们将一个单个对象的特定实例之间的兴趣指标中的增量变化纳入作为多任务指标学习框架中的一项任务,然后解释该限制将使用户被警报以对整体度量的整体度量不变。研究的技术是专门针对处理异质数据源的专门量身定制的。每个任务的输入数据可能包含缺失的值,该值的比例和分辨率在任务之间不存在,并且数据包含非独立且相同分布的(非IID)实例。根据我们最初的实验实施结果的结果,并讨论了该域中的相关研究,这可能为进一步的研究提供了方向。
translated by 谷歌翻译
对机器学习模型训练的栅极基量子电路的发展越来越兴趣。然而,关于电路设计的参数,噪声和其他测量误差对量子机器学习模型性能的影响很少。在本文中,我们探讨了使用多个标准机器学习数据集和IBM的Qiskit模拟器的关键电路设计参数(Qubits,Deposit等)的实际意义。总的来,我们评估超过6500个独特电路,以$ n \约120700美元。我们发现,一般浅(低深度)宽(更多Qubits)电路拓扑倾向于在没有噪声的情况下更优于更深的内容。我们还探讨了不同噪声概念的影响和影响,并讨论了对分类机学习任务的噪声更多/较低的电路拓扑。基于该研究结果,我们定义了使用基于门的NISQ量子计算机来实现近期承诺的电路拓扑指南。
translated by 谷歌翻译
我们提出了一种新方法,用于在使用机器人运动计划中使用技术的静态和动态场景中的重定向方法来计算转向用户在物理空间中的无碰撞路径上的重定向增益。我们的第一个贡献是使用来自运动规划和配置空间的概念重定向的数学框架。该框架突出了各种几何和感知的限制,倾向于使无碰撞重定向行走困难。我们使用我们的框架提出了一个有效的解决方案,以便重定向问题使用可见性多边形的概念来计算物理环境和虚拟环境中的自由空间。可见性多边形提供了可见的整个空间的简明表示,并且因此可以从环境内的位置到用户。使用可行性空间的表示,我们应用重定向步行以将用户转向物理环境中的可见性多边形区域,该区域与用户占据虚拟环境中的可见性多边形中的区域密切相关。我们表明我们的算法能够沿着路径转向用户,这些路径导致比静态和动态场景中的现有最先进的算法显着更少的重置。我们的项目网站可在https://gamma.umd.edu/vis_poly/提供。
translated by 谷歌翻译
我们提出了一种基于对齐的新型重定向步行控制器,允许用户探索大型和复杂的虚拟环境,同时最小化物理环境中的障碍物的碰撞次数。我们基于对齐的重定向控制器,弧形,使用户带动,使其对物理环境中的障碍物的邻近符合虚拟环境中的障碍物尽可能接近。为了在复杂环境中量化控制器的性能,我们引入了新的公制,复杂度(CR),以测量相对环境复杂性,并表征物理和虚拟环境之间的导航复杂性差异。通过广泛的仿真实验,我们表明电弧显着优于最新的最先进的控制器,其能够将用户转向无碰撞路径。我们还通过对具有许多障碍物的复杂环境中的具有稳健性的定量和定性措施来展示。我们的方法适用于任意环境,并且除了环境布局之外,没有任何用户输入或参数调整。我们在Oculus Quest头戴式显示器上实施了我们的算法,并在具有不同复杂性的环境中进行了评估其性能。我们的项目网站是在https://gamma.umd.edu/arc/提供的。
translated by 谷歌翻译
Coronary Computed Tomography Angiography (CCTA) provides information on the presence, extent, and severity of obstructive coronary artery disease. Large-scale clinical studies analyzing CCTA-derived metrics typically require ground-truth validation in the form of high-fidelity 3D intravascular imaging. However, manual rigid alignment of intravascular images to corresponding CCTA images is both time consuming and user-dependent. Moreover, intravascular modalities suffer from several non-rigid motion-induced distortions arising from distortions in the imaging catheter path. To address these issues, we here present a semi-automatic segmentation-based framework for both rigid and non-rigid matching of intravascular images to CCTA images. We formulate the problem in terms of finding the optimal \emph{virtual catheter path} that samples the CCTA data to recapitulate the coronary artery morphology found in the intravascular image. We validate our co-registration framework on a cohort of $n=40$ patients using bifurcation landmarks as ground truth for longitudinal and rotational registration. Our results indicate that our non-rigid registration significantly outperforms other co-registration approaches for luminal bifurcation alignment in both longitudinal (mean mismatch: 3.3 frames) and rotational directions (mean mismatch: 28.6 degrees). By providing a differentiable framework for automatic multi-modal intravascular data fusion, our developed co-registration modules significantly reduces the manual effort required to conduct large-scale multi-modal clinical studies while also providing a solid foundation for the development of machine learning-based co-registration approaches.
translated by 谷歌翻译
With an ever-growing number of parameters defining increasingly complex networks, Deep Learning has led to several breakthroughs surpassing human performance. As a result, data movement for these millions of model parameters causes a growing imbalance known as the memory wall. Neuromorphic computing is an emerging paradigm that confronts this imbalance by performing computations directly in analog memories. On the software side, the sequential Backpropagation algorithm prevents efficient parallelization and thus fast convergence. A novel method, Direct Feedback Alignment, resolves inherent layer dependencies by directly passing the error from the output to each layer. At the intersection of hardware/software co-design, there is a demand for developing algorithms that are tolerable to hardware nonidealities. Therefore, this work explores the interrelationship of implementing bio-plausible learning in-situ on neuromorphic hardware, emphasizing energy, area, and latency constraints. Using the benchmarking framework DNN+NeuroSim, we investigate the impact of hardware nonidealities and quantization on algorithm performance, as well as how network topologies and algorithm-level design choices can scale latency, energy and area consumption of a chip. To the best of our knowledge, this work is the first to compare the impact of different learning algorithms on Compute-In-Memory-based hardware and vice versa. The best results achieved for accuracy remain Backpropagation-based, notably when facing hardware imperfections. Direct Feedback Alignment, on the other hand, allows for significant speedup due to parallelization, reducing training time by a factor approaching N for N-layered networks.
translated by 谷歌翻译